1
Introducción a la Optimización Inteligente: WU-SCI1005
WU-SCI1005Lecture 1
00:00

Optimizaciónes el proceso matemático de encontrar la "mejor" solución — ya sea minimizando o maximizando una función objetivo — dentro de una región factible definida, sujeta a reglas específicas.

Métodos Clásicos frente a Métodos Inteligentes

  • Método de Newton-Raphson:Un enfoque iterativo para hallar raíces que utiliza derivadas de segundo orden (matriz hessiana).
  • Descenso del gradiente:Un método de primer orden que se mueve hacia el mínimo local siguiendo el gradiente negativo.
  • Algoritmos Evolutivos (AE):Métodos de búsqueda estocásticos y basados en población inspirados en la selección natural biológica.

Conceptos clave

Es fundamental distinguir entre el Vector de decisión (las variables que modificamos) y el Función objetivo (la métrica de éxito).

Peligros del codificado
Ten cuidado con el Gradiente desvanecido en métodos basados en cálculo y Cantos de Hamming en algoritmos evolutivos binarios. Un simple incremento decimal (por ejemplo, de 7 a 8) puede requerir invertir todos los bits (de 0111 a 1000), creando un "acantilado" que dificulta la eficiencia de la búsqueda. Usa Codificación de Gray para mitigar este problema.
Implementación en Python: Descenso del gradiente
Pregunta 1
¿Por qué un problema de optimización convexa se considera "más fácil" que uno no convexo?
Cualquier óptimo local está garantizado que sea el óptimo global.
No requiere el cálculo de derivadas.
Utiliza una búsqueda estocástica basada en población.
Requiere significativamente menos memoria para calcular.
Pregunta 2
En el contexto de los Algoritmos Evolutivos, ¿qué representa el "fenotipo"?
La codificación binaria o de Gray de las variables.
Las características reales expresadas o el rendimiento de una solución.
Estudio de caso: Maximizar el área de un triángulo
Lee el escenario siguiente y responde las preguntas de formulación.
Considera el problema de maximizar el área de un triángulo rectángulo donde la longitud de la hipotenusa $c$ es fija.
Q
1. Identifica las variables de decisión y la función objetivo.
Respuesta:
Variables: Las longitudes de los dos catetos, $a$ y $b$.
Función objetivo: Maximizar $Area = \frac{1}{2} \cdot a \cdot b$.
Q
2. Formula la restricción basada en las propiedades geométricas.
Respuesta:
Basado en el teorema de Pitágoras, la restricción es: $a^2 + b^2 = c^2$.
Q
3. Si se usa el método de Newton-Raphson, ¿qué matriz debe calcularse para tener en cuenta las derivadas parciales de segundo orden?
Respuesta:
La Matriz Hessiana ($H$), which contains all second-order partial derivatives of the objective function.